本文介绍了与平面腿机器人一起使用的支持和恢复系统的设计和控制。系统以三种模式运行。首先,它可以以完全透明的模式操作,其中没有力被应用于机器人。在这种模式下,系统遵循机器人,以便在需要时能够快速捕获机器人。其次,它可以提供垂直支撑力以在操作期间提供机器人。第三,它可以抓住机器人并在未能避免跌倒和相关损害后将其从地面拉开。在此模式下,系统在允许运行多个连续试验的试验后自动重置机器人,无需手动干预。通过致动电缆和滑轮系统将支撑力应用于机器人,该电缆和滑轮系统使用串联弹簧串联弹性致动,以实现真正透明的操作。该系统的非线性性质需要仔细设计控制器,以确保可预测的安全行为。在本文中,我们介绍了恢复系统的机电调整设计,开发合适的控制器,并评估了BipeDal Robot Ramone上的系统性能。
translated by 谷歌翻译
Prostate cancer is the most common cancer in men worldwide and the second leading cause of cancer death in the United States. One of the prognostic features in prostate cancer is the Gleason grading of histopathology images. The Gleason grade is assigned based on tumor architecture on Hematoxylin and Eosin (H&E) stained whole slide images (WSI) by the pathologists. This process is time-consuming and has known interobserver variability. In the past few years, deep learning algorithms have been used to analyze histopathology images, delivering promising results for grading prostate cancer. However, most of the algorithms rely on the fully annotated datasets which are expensive to generate. In this work, we proposed a novel weakly-supervised algorithm to classify prostate cancer grades. The proposed algorithm consists of three steps: (1) extracting discriminative areas in a histopathology image by employing the Multiple Instance Learning (MIL) algorithm based on Transformers, (2) representing the image by constructing a graph using the discriminative patches, and (3) classifying the image into its Gleason grades by developing a Graph Convolutional Neural Network (GCN) based on the gated attention mechanism. We evaluated our algorithm using publicly available datasets, including TCGAPRAD, PANDA, and Gleason 2019 challenge datasets. We also cross validated the algorithm on an independent dataset. Results show that the proposed model achieved state-of-the-art performance in the Gleason grading task in terms of accuracy, F1 score, and cohen-kappa. The code is available at https://github.com/NabaviLab/Prostate-Cancer.
translated by 谷歌翻译
Person recognition at a distance entails recognizing the identity of an individual appearing in images or videos collected by long-range imaging systems such as drones or surveillance cameras. Despite recent advances in deep convolutional neural networks (DCNNs), this remains challenging. Images or videos collected by long-range cameras often suffer from atmospheric turbulence, blur, low-resolution, unconstrained poses, and poor illumination. In this paper, we provide a brief survey of recent advances in person recognition at a distance. In particular, we review recent work in multi-spectral face verification, person re-identification, and gait-based analysis techniques. Furthermore, we discuss the merits and drawbacks of existing approaches and identify important, yet under explored challenges for deploying remote person recognition systems in-the-wild.
translated by 谷歌翻译
合奏学习在机器学习方面取得了成功,比其他学习方法具有重大优势。袋装是一种突出的合奏学习方法,它创建了被称为袋子的数据子组,该数据被单独的机器学习方法(例如决策树)培训。随机森林是学习过程中具有其他功能的袋装的重要例子。 \ textColor {black} {当单个学习者具有较高的偏见时,包装的限制是汇总预测中的高偏置(模型不足)。}进化算法已突出用于优化问题,并且也用于机器学习。进化算法是无梯度的方法,具有多种候选解决方案,可维持创建新解决方案的多样性。在传统的包装合奏学习中,制作了一次袋子,而在培训示例方面,内容是在学习过程中固定的。在我们的论文中,我们提出了进化装袋的合奏学习,我们利用进化算法来发展袋子的内容,以通过迭代袋中提供多样性来增强合奏。结果表明,在某些约束下,我们的进化合奏装袋方法优于几个基准数据集的常规合奏方法(包装和随机森林)。进化装袋可以固有地维持一套不同的行李,而无需牺牲任何数据。
translated by 谷歌翻译
随着计算病理学的发展,通过整个幻灯片图像(WSIS)的Gleason评分的深度学习方法具有良好的前景。由于WSIS的大小非常大,因此图像标签通常仅包含幻灯片级标签或有限的像素级标签。当前的主流方法采用了多个实体学习来预测格里森等级。但是,某些方法仅考虑幻灯片级标签,忽略了包含丰富本地信息的有限像素级标签。此外,考虑到像素级标签的另外方法忽略了像素级标签的不准确性。为了解决这些问题,我们根据多个实例学习框架提出了一个混合监督变压器。该模型同时使用幻灯片级标签和实例级别标签,以在幻灯片级别实现更准确的Gleason分级。通过在混合监督培训过程中引入有效的随机掩盖策略,进一步降低了实例级标签的影响。我们在SICAPV2数据集上实现了最新性能,视觉分析显示了实例级别的准确预测结果。源代码可从https://github.com/bianhao123/mixed_supervision获得。
translated by 谷歌翻译
从世界上任何地方拍摄的单个地面RGB图像预测地理位置(地理位置)是一个非常具有挑战性的问题。挑战包括由于不同的环境场景而导致的图像多样性,相同位置的出现急剧变化,具体取决于一天中的时间,天气,季节和更重要的是,该预测是由单个图像可能只有一个可能只有一个图像做出的很少有地理线索。由于这些原因,大多数现有作品仅限于特定的城市,图像或全球地标。在这项工作中,我们专注于为行星尺度单位图地理定位开发有效的解决方案。为此,我们提出了转运器,这是一个统一的双分支变压器网络,在整个图像上关注细节,并在极端的外观变化下产生健壮的特征表示。转运器将RGB图像及其语义分割图作为输入,在每个变压器层之后的两个平行分支之间进行交互,并以多任务方式同时执行地理位置定位和场景识别。我们在四个基准数据集上评估转运器-IM2GPS,IM2GPS3K,YFCC4K,YFCC26K,并获得5.5%,14.1%,4.9%,9.9%的大陆级别准确度比最新的级别的精度提高。在现实世界测试图像上还验证了转运器,发现比以前的方法更有效。
translated by 谷歌翻译
面部识别网络通常展示相对于性别,Skintone等的敏感属性,适用于性别和Skintone,我们观察到网络的面积,网络参加属性的类别。这可能有助于偏见。在这种直觉上建立一种新的基于蒸馏的方法,称为蒸馏和去偏置(D&D),以实施网络以寻求类似的面部区域,而不管属性类别如何。在D&D中,我们从一个属性中培训一类图像的教师网络;例如轻的Skintone。然后从教师蒸馏信息,我们在剩余类别的图像上培训学生网络;例如,黑暗的skintone。特征级蒸馏损失约束学生网络以生成类似教师的表示。这允许学生网络参加所有属性类别的类似面部区域,并使其能够减少偏差。我们还提出了D&D的顶部的第二蒸馏步骤,称为D&D ++。对于D&D ++网络,我们将D&D网络的“未偏见”蒸馏成新的学生网络,D&D ++网络。我们在所有属性类别上培训新网络;例如,光明和黑暗的碳酸根。这有助于我们培训对属性偏差的网络,同时获得比D&D更高的面部验证性能。我们展示D&D ++优于在IJB-C数据集上减少性别和Skintone偏置的现有基线,同时获得比现有的对抗偏置方法更高的面部验证性能。我们评估我们所提出的方法对两个最先进的面部识别网络的有效性:Crystalface和Arcface。
translated by 谷歌翻译
在这里,从动态大数据产生实验的深度学习分析,我们报告动态断裂韧性以及双连续纳米结构共聚物,聚脲的粘性参数。我们首先发明了一种新型动态线图像剪切干涉干涉仪(DL-ISI),其可以在单板冲击实验中沿着样品后表面的一条线产生位移梯度时间曲线,这些裂缝覆盖单板冲击实验中的裂缝启动和生长过程。然后,我们提出了一种基于卷积神经网络(CNN)的深度学习框架,可以反向确定来自DL-ISI条纹图像的准确凝聚参数。已经进行了具有中间平面裂缝的聚脲样品上的板冲击实验,并且产生的DL-ISI边缘图像已被条件生成的对抗网络(CGAN)染色。首当,通过具有计算数据集的预先训练的CNN架构成功地获得了Polyurea的动态粘性参数,这与相关方法和线性裂缝力学估计一致。在多脲中发现表观动态增韧,其中粘性强度被发现比具有相同冲击速度的对称冲击下的泡出强度高几乎三倍。这些实验结果填补了在裂纹尖端附近的极端局部装载条件下对共聚物的合作失效强度的目前了解的差距。该实验还展示了大数据发电实验的优点,它与最先进的机器学习算法相结合的创新的高通量实验技术。
translated by 谷歌翻译
组织病理学图像的Glason分级对于准确的前列腺癌(PCA)诊断至关重要。由于在侵入式组织切除后获得了这种图像,因此在现有范式下挑战。我们提出了一种方法来预测来自磁共振(MR)图像的肠胃胺等级,这些图像是非介入和容易获得的。我们在广义零射击学习(GZSL)设置中解决了问题,因为我们可能无法访问每种疾病等级的培训图像。通过条件变分性Autiachoder(CVAE)利用Greneason等级的订购性质来生成看不见等级(类)的合成MRI特征向量通过包含自我监督学习的条件变分性的自动化器来生成。使用循环GAN产生相应的组织病理学特征,并结合MR特征来预测GREASES的测试图像等级。实验结果表明,我们的方法优于GZSL的竞争功能,并接近完全监督方法的性能。
translated by 谷歌翻译
用于评估人工数据的因果模型发现的两个最常用的标准是从真实模型到学习模型的编辑距离和kullback-Leibler分歧。这两个度量都最大衡奖励真实模型。但是,我们认为他们既不充分辨别判断虚假模型的相对优点。例如,编辑距离未能区分强大和弱概率依赖关系。另一方面,kl发散同样地奖励所有统计上等同的模型,无论其不同的因果索赔如何。我们提出了一种增强的KL发散,我们称之为因果KL(CKL),这考虑了区分了观测到等效模型的因果关系。结果显示为CKL的三种变体,显示出在实践中运作良好的因果kl。
translated by 谷歌翻译